首页> 外文OA文献 >Hybrid random/deterministic parallel algorithms for convex and nonconvex Big Data optimization
【2h】

Hybrid random/deterministic parallel algorithms for convex and nonconvex Big Data optimization

机译:凸和非凸大数据优化的混合随机/确定性并行算法

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

We propose a decomposition framework for the\udparallel optimization of the sum of a differentiable (possibly\udnonconvex) function and a nonsmooth (possibly nonseparable),\udconvex one. The latter term is usually employed to enforce\udstructure in the solution, typically sparsity. The main contribution\udof this work is a novel parallel, hybrid random/deterministic\uddecomposition scheme wherein, at each iteration, a subset of\ud(block) variables is updated at the same time by minimizing a\udconvex surrogate of the original nonconvex function. To tackle\udhuge-scale problems, the (block) variables to be updated are\udchosen according to a mixed random and deterministic procedure,\udwhich captures the advantages of both pure deterministic and\udrandom update-based schemes. Almost sure convergence of the\udproposed scheme is established. Numerical results show that on\udhuge-scale problems the proposed hybrid random/deterministic\udalgorithm compares favorably to random and deterministic\udschemes on both convex and nonconvex problems.
机译:我们提出了一个分解框架,用于可微(可能是\ udnonconvex)函数和一个非平滑(可能是不可分),\ udconvex一个函数的和。后一个术语通常用于加强解决方案中的结构,通常是稀疏性。这项工作的主要贡献是一种新颖的并行混合随机/确定性/ ud分解方案,其中,在每次迭代中,通过最小化原始非凸的\ udconvex替代品同时更新\ ud(block)变量的子集。功能。为了解决超大规模的问题,根据混合的随机和确定性过程来选择要更新的(块)变量,这捕获了纯确定性和基于随机性更新方案的优点。几乎可以肯定\提议方案的收敛性。数值结果表明,在凸问题和非凸问题上,所提出的随机/确定性/混合算法在\ udhuge级问题上均优于随机和确定性\ udschems。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号